首页> 外文OA文献 >Gradient-based Regularization Parameter Selection for Problems with Non-smooth Penalty Functions
【2h】

Gradient-based Regularization Parameter Selection for Problems with Non-smooth Penalty Functions

机译:基于梯度的问题正则化参数选择   非平滑惩罚函数

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

In high-dimensional and/or non-parametric regression problems, regularization(or penalization) is used to control model complexity and induce desiredstructure. Each penalty has a weight parameter that indicates how strongly thestructure corresponding to that penalty should be enforced. Typically theparameters are chosen to minimize the error on a separate validation set usinga simple grid search or a gradient-free optimization method. It is moreefficient to tune parameters if the gradient can be determined, but this isoften difficult for problems with non-smooth penalty functions. Here we showthat for many penalized regression problems, the validation loss is actuallysmooth almost-everywhere with respect to the penalty parameters. We cantherefore apply a modified gradient descent algorithm to tune parameters.Through simulation studies on example regression problems, we find thatincreasing the number of penalty parameters and tuning them using our methodcan decrease the generalization error.
机译:在高维和/或非参数回归问题中,正则化(或罚分)用于控制模型的复杂性并得出所需的结构。每个罚分都有一个权重参数,该参数指示应该强制执行与该罚分相对应的结构的强度。通常,使用简单的网格搜索或无梯度优化方法选择参数以最大程度地减少单独验证集上的误差。如果可以确定梯度,则调整参数的效率更高,但是对于非平滑罚函数的问题通常很难做到。在这里,我们表明,对于许多惩罚性回归问题,对于惩罚参数而言,验证损失实际上几乎在所有地方都是平滑的。因此,我们可以应用改进的梯度下降算法来调整参数。通过对示例回归问题的仿真研究,我们发现增加罚分参数的数量并使用我们的方法对其进行调整可以减少泛化误差。

著录项

  • 作者

    Feng, Jean; Simon, Noah;

  • 作者单位
  • 年度 2017
  • 总页数
  • 原文格式 PDF
  • 正文语种
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号